Новости Статьи Российское ПО VMware Veeam StarWind vStack Microsoft Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6470 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

VMware Horizon View 5.2 - анонс новых возможностей.


На прошлой неделе компания VMware анонсировала новую версию своего решения для виртуализации настольных ПК предприятия VMware Horizon View 5.2. Пользователи предыдущих версий этого продукта, наверняка, заметили, что компания VMware добавила к его названию слово Horizon.

Это все от того, что приставка Horizon означает принадлежность продукта к семейству решений из множества EUC (End User Computing). Продукты под маркой Horizon были объединены в набор VMware Horizon Suite, который включает в себя следующие решения:

  • VMware Horizon View 5.2 - полноценное решения для виртуализации настольных ПК, о котором сегодня пойдет речь.
  • VMware Horizon Mirage 4.0 - продукт о котором мы писали вот тут.  Это решение, которое позволяет создать образ рабочей станции пользователя, разделив его на слои (система, приложения, а также данные и настройки пользователя), а потом централизованно управлять такими образами. То есть, это продукт для физических сред (и сейчас он пока не интегрирован с VMware View).
  • VMware Horizon Workspace 1.0 - это комбинация двух интересных продуктов - Horizon Data (бывший Project Octopus - решение а-ля корпоративный Dropbox, о котором мы много писали вот тут), а также Horizon Application Manager - решение для федерации SaaS-приложений и VDI-сервисов (подробная статья здесь).

Напомним, что раньше комплектацию пакета мы уже описывали тут, но с тех пор все немного изменилось - проект VMware Project AppBlast (мы писали о нем тут) был-таки включен в VMware Horizon View. И теперь концепция стала понятной - в пакете VMware Horizon Suite осталось всего 3 продукта (напомним, что ThinApp уже являлся частью VMware View).

Так во что же превратился AppBlast? В полноценного HTML5-клиента виртуальных ПК VMware View:

А теперь приведем краткий обзор возможностей нового решения VMware Horizon View 5.2 (полный обзор будет опубликован после выхода продукта):

Efficient Use of Storage Capacity with SEsparse Disks

Horizon View 5.2 использует возможности VMware vSphere, представляющие новый формат виртуальных дисков Flexible Space Efficiency (Flex-SE он же SE sparse disk), который позволяет найти оптимальное соотношение между потреблением дискового пространства и нагрузкой на хранилище за счет размера выделяемого для диска блока, а также способа управления этими блоками. Кроме этого, появилась возможность возвращения удаленных и неиспользуемых блоков виртуального диска (в гостевой ОС) системе хранения средствами View Composer.

Unified Client with View Desktops in Horizon

Если решение VMware Horizon View установлено в рамках пакета Horizon Suite, то вы получите централизованную консоль доступа к его компонентам, включая View, а также возможности единого входа (Single Sign-On, SSO).

Clientless HTML5 Access to View Desktops & Apps

Это то самое, о чем рассказано в видео выше. Теперь получить доступ к десктопам View можно безо всяких клиентов - просто посредством браузера с поддержкой HTML 5 (через Horizon View Security Server).

Hardware Accelerated 3D Graphics

Интересная возможность VMware Horizon View, позволяющая использовать аппаратные ресурсы GPU-устройства совместно несколькими виртуальными машинами. По-прежнему, виртуальная машина видит универсальное устройство SVGA device, но теперь уже использует возможности 3D-графики в гостевой системе. Соответственно получается 2 режима использования графической акселерации:

  • vSGA (Shared Graphics Acceleration)      
  • Software 3D renderer

Для таких машин можно делать vMotion без прерывания работы 3D-графики. Пока поддерживаются следующие видеоадаптеры серверов:

  • PCIEx16 slot
  • NVIDIA Quadro 4000, 5000 and 6000
  • Tesla M2070Q
  • GRID K1 and K2
  • Improved Video Chat with MSFT Lync Support

    Это улучшенная поддержка клиентов  Microsoft Lync 2013 в виртуальных ПК, включая полную поддержку VoIP и видеочата для протоколов RDP и PCoIP.

    Такжн появилось несколько новых возможностей по интеграции с клиентскими приложениями Microsoft:

    • Сжатие трафика USB-вебкамер
    • UDP-канал для ускоренной передачи в WAN
    • Улучшенная поддержка USB медиа-устройств

    Windows 8 Desktop Support

    Появилась поддержка виртуальных ПК с гостевыми ОС Windows 8. Исправлены различные баги, имевшие место в предыдущих версиях.

    Куча новых возможностей протокола PCoIP

    Вот только некоторые из них:

    • Поддержка сетевых устройств MITM (Man-In-The-Middle)
    • Настройки PCoIP GPO применяются сразу после изменения
    • Поддержка Multi Touch для Windows 8
    • Существенные улучшения безопасности
    • Улучшения производительности, например, vertical offset caching и другое

    Об этом позднее - в полном обзоре новых возможностей.

    Horizon Based ThinApp Entitlement for View

    Возможность привязать назначение прав на использование виртуальных приложений ThinApp в консоль Horizon Workspace.

    Large Pools with more than 8 hosts

    Ограничение для связанных клонов в 8 штук хостов ESXi для пула было убрано (подробнее - тут). Теперь действует единый лимит - 32 хоста, неважно Linked Clone пул это или нет.

    Multi-VLAN support

    Теперь один базовый образ виртуального ПК можно назначить нескольким VLAN или портгруппам.

    Кэширование данных для VMware View Manager

    Теперь лучше отзывается консоль администрирования (особенно для больших инсталляций).

    Улучшение производительности операций Provisioning, Rebalance, Recompose 

    До двух раз сократилось время развертывания виртуальных ПК и уменьшилось время операции Rebalance для пула.

    Integrated Service Console in VC Web Client

    Эта экспериментальная возможность позволяет веб-клиенту vSphere Web Client "быть в курсе" объектов VMware View (например, Users, Desktops и Pools). Классная и нужная администраторам штука:

    VC Virtual Appliance Support

    Да, теперь для установки VMware View поддерживается виртуальный модуль vCenter (vCSA)!

    New Admin Dashboard Look & Feel

    Теперь новая админка VMware Horizon View выглядит как vSphere Web Client:

    Появились также множественные улучшения безопасности решения - но об этом обо всем в следующей статье.

    Ну и взглянем на максимумы решения VMware Horizon View 5.2 по сравнению с предыдущей версией VMware View 5.1:

    • Теперь (ура!) поддерживается 32 хоста в кластере на основе томов VMFS (было 8)
    • 32 хоста в кластере на основе томов NFS (не изменилось)
    • 16 виртуальных машин на физическое ядро (не изменилось)
    • 1000 виртуальных машин на пул виртуальных ПК (для одной реплики) - не изменилось
    • 140 виртуальных машин на один LUN с поддержкой VAAI (не изменилось)
    • Теперь поддерживается 10 000 ВМ на один сервер vCenter (раньше было 2000)
    • 1000 виртуальных машин на хост VMware ESXi (не изменилось)

    О возможности загрузки VMware Horizon View 5.2 будет объявлено дополнительно.


    Таги: VMware, View, Update, Horizon, Enterprise, vSphere, VDI, VMachines

    Список приложений, поддерживаемых на платформе VMware vSphere / ESXi.


    Если у вас или вашего руководства возникают вопросы о том, поддерживается ли то или иное приложение на платформе VMware vSphere, то теперь вы можете получить достоверный ответ на сайте Business Applications on the VMware Platform. На данный момент в базе данных 3707 приложений и список постоянно пополняется:

    Что означает этот список? Он означает полную поддержку работоспособности данного ПО в виртуальной машине именно со стороны производителя данного бизнес-приложения, а не VMware. То есть, VMware обращается к вендору этого ПО (в том числе по запросам пользователей), а он, в свою очередь, публикует support statement, который также появляется на этом сайте.

    Вот, например, заметка про поддержку IBM WebSphere на VMware vSphere:

    Идем по ссылке и внизу страницы находим официальную информацию про поддержку VMware vSphere:

    Каждый пользователь может самостоятельно составить запрос к вендору того или иного приложения, для этого нужно зарегистрироваться.

    И еще одно - если вам для чего-то нужен этот список в офлайн, можно скачать вот такой полный список поддерживаемых приложений на VMware vSphere со ссылками на support statement.


    Таги: VMware, vSphere, Enterprise, VMachines, ESXi, Support

    Почему в папке с виртуальной машиной VMware vSphere 5.1 два файла VMX?


    Если вы заглянете в папку с работающей виртуальной машиной в VMware ESXi 5.1 из консоли, то увидите, что там находятся 2 конфигурационных файла VMX:

    Не стоит думать, что файл vmx~ - это lock-файл вроде тех, которые бывают для виртуальных дисков VMDK (lck). На самом деле, это так называемый "edit file", который нужен для того, чтобы вносимые в конфигурацию виртуальной машины изменения сначала сохранялись в нем, а затем эти два файла меняются местами.

    Таким образом, этот файл вам пригодится, если оригинальный vmx-файл будет поврежден или потерян, так как vmx~ является точной копией его последнего рабочего состояния.

    Поэтому не стоить вносить правки в файлы vmx вручную, а стоит воспользоваться интерфейсом vSphere Client:

    Можно также внести правки в расширенные настройки виртуальной машины через интерфейсы удаленного администрирования, например, как описано в этой статье.


    Таги: VMware, vSphere, VMachines, ESXi, Blogs, Обучение

    Синхронизация времени гостевой ОС и другие настройки VMware Tools в VMware vSphere 5.1.


    Как многие помнят, ранее в настройках VMware Tools можно было настраивать синхронизацию времени гостевой ОС со временем хост-сервера VMware ESXi. Доступно это было при двойном клике на иконку VMware Tools в гостевой системе:

    Теперь же, начиная с vSphere 5.1, при двойном клике на иконку VMware Tools вы увидите следующее:

    То есть тут, по-сути, доступна только информация о версии пакета. Это правильно, так как пользователю виртуальной машины не должно быть доступно никаких действий и настроек, относящихся к слою виртуализации.

    Вместо этого, различные настройки, в том числе синхронизации времени, были вынесены в категорию VMware Tools опций виртуальной машины (Virtual Machine –> Edit Settings –> Options –> VMware Tools):

    Теперь администраторам VMware vSphere не требуется полномочий в гостевой ОС, чтобы регулировать настройки VMware Tools.


    Таги: VMware, Tools, vSphere, ESXi, VMachines, Blogs

    VMware Paravirtual SCSI (PVSCSI) - использование в качестве загрузочых дисков виртуальных машин на VMware vSphere.


    Очень давно мы писали про тип виртуальных дисков Paravirtual SCSI (PVSCSI), который появился в VMware vSphere 4 и был создан для требовательных к ресурсам ввода-вывода нагрузок. На заре своего развития виртуальные диски типа PVSCSI не рекомендовались к использованию в качестве загрузочных, а также имели несколько серьезных багов, но широко тестировались в связи с тем, что показывали большую производительность, чем стандартный LSI SCSI.

    Эту статью мы пишем, главным образом, здесь для того, чтобы сказать - уже можно. Виртуальные диски Paravirtual SCSI достаточно стабильно работают в VMware vSphere. В KB 1010398 мы видим матрицу поддержки дисков pvscsi для различных релизов VMware vSphere (обычные и boot-диски):

    Guest operating system Data Disk Boot Disk
    Windows Server 2008 R2 (64-bit only) ESX/ESXi 4.0 Update 1, ESX/ESXi 4.1, ESXi 5.0 ESX/ESXi 4.0 Update 1, ESX/ESXi 4.1, ESXi 5.0

    Windows Server 2008 (32 and 64 bit)

    ESX/ESXi 4.X, ESXi 5.0

    ESX/ESXi 4.0 Update 1, ESX/ESXi 4.1, ESXi 5.0

    Windows Server 2003 (32 and 64 bit)

    ESX/ESXi 4.x, ESXi 5.0

    ESX/ESXi 4.x, ESXi 5.0

    Windows 7 (32 and 64 bit) ESX/ESXi 4.1, ESXi 5.0 ESX/ESXi 4.1, ESXi 5.0
    Windows Vista (32 and 64 bit) ESX/ESXi 4.1, ESXi 5.0 ESX/ESXi 4.1, ESXi 5.0
    Windows XP (32 and 64 bit) ESX/ESXi 4.1, ESXi 5.0 ESX/ESXi 4.1, ESXi 5.0

    Red Hat Enterprise Linux (RHEL) 5 (32 and 64 bit) and all update releases

    ESX/ESXi 4.X, ESXi 5.0

    Not Supported

    RHEL 6 (32 and 64 bit)

    ESX/ESXi 4.0 Update 2, ESX/ESXi 4.1, ESXi 5.0

    ESX/ESXi 4.0 Update 2, ESX/ESXi 4.1, ESXi 5.0

    SUSE Linux Enterprise 11 SP1(32 and 64 bit) and later releases

    ESX/ESXi 4.0 Update 2, ESX/ESXi 4.1, ESXi 5.0
    ESX/ESXi 4.0 Update 2, ESX/ESXi 4.1, ESXi 5.0

    Ubuntu 10.04 (32 and 64 bit) and later releases

    ESX/ESXi 4.0 Update 2, ESX/ESXi 4.1, ESXi 5.0

    ESX/ESXi 4.0 Update 2, ESX/ESXi 4.1, ESXi 5.0

    Distros using Linux version 2.6.33 or later and that include the vmw_pvscsi driver

    ESX/ESXi 4.1, ESXi 5.0

    ESX/ESXi 4.1, ESXi 5.0

    В VMware vSphere/ESXi 5.1 поддерживается все то, что поддерживалось и в предыдущих версиях платформы.

    Что же раньше были за баги с PVSCSI? Смотрим, например, в статье тут, отсылающей нас к KB компании Microsoft. Ошибка существовала для ОС Windows Server 2008 R2 и была критической, а устранена была только в VMware vSphere 5.0 Update 1, о чем есть KB 2004578.

    Теперь о том, как поставить диск типа PVSCSI в качестве загрузочного для виртуальной машины на ESXi. Выбираем в vSphere Client контроллер типа VMware Paravirtual :

    В настройках виртуальной машины добавляем виртуальный floppy-дисковод и указываем образ дискеты с драйвером PVSCSI, который лежит в папке vmimages->floppies (если там ничего нет, идем сюда):

    Дальше при выборе диск для установки Windows указываем драйвер с дискеты:

    Дальше ставим все как обычно. Если хочется запихнуть драйвер PVSCSI в кастомизированную ISO-шку, то вам сюда. И да, драйвер на образе дискеты от Windows Server 2008 прекрасно работает на Windows Server 2012, который, в свою очередь, работает на VMware vSphere 5.1.


    Таги: VMware, Storage, PVSCSI, VMachines, Performance

    Не работает импорт виртуальных дисков через vmkfstools в VMware vSphere 5.1.


    Если вы попробуете импортировать виртуальную машину (или Virtual Appliance), которая была создана для настольных платформ виртуализации (например, VMware Workstation в формате 2gbsparse), в VMware vSphere 5.1 с помощью утилиты vmkfstools, то у вас это не выйдет. Вы получите подобное сообщение:

    # vmkfstools -i <VM-name.vmdk> <VM-name-new-disk>.vmdk -d zeroedthick

    Failed to open 'VM-name.vmdk': The system cannot find the file specified (25).

    Ошибка может быть и такой:

    File [VMFS volume]\VM-name.vmdk was not found.

    И такой:

    Error Stack:
    An error was received from the ESX host while powering on VM VM-name
    Cannot open the disk '/vmfs/volumes/Datastore/VM-name/VM-name.vmdk' or one of the snapshot disks it depends on.
    The system cannot find the file specified.
    VMware ESX cannot find the virtual disk '/vmfs/volumes/Datastore/VM-name/VM-name.vmdk'. Verify the path is valid and try again.

    Все это из-за одного и того же - в VMware vSphere 5.1 убрали автоматическую загрузку модуля multiextent, который и отвечает как раз за конверсию виртуальных дисков с hosted-платформ VMware в формат VMFS. Чтобы загрузить этот модуль нужно выполнить простую команду:

    # vmkload_mod multiextent

    Ну а чтобы выгрузить:

    # vmkload_mod -u multiextent

    Делать это можно смело, так как этот модуль отвечает только за работу с Non-VMFS дисками ВМ.


    Таги: VMware, vSphere, VMDK, VMFS, ESXi, VMachines, Troubleshooting

    Максимальное количество миграций VMware vMotion и Storage vMotion - хосты, сети и хранилища.


    Полгода назад мы писали об особенностях работы технологии VMware Storage vMotion, где касались максимального числа одновременных миграций SVMotion на хранилище VMware vSphere. Там же мы вскользь касались миграций vMotion и упоминали вот эту нашу статью, где рассматривались лимиты одновременных миграций vMotion на серверах и хранилищах.

    Теперь, на основе статьи Франка, мы обобщим и актуализуем информацию по миграциям vMotion и Storage vMotion в разных контекстах - на уровне хранилищ, сети и хост-серверов VMware ESX.

    Как и в прошлой статье, здесь будем пользоваться понятием стоимости миграции в единицах (cost) и максимального значения костов в тех же единицах (max cost), которое отображает предельно допустимое значение. Сумма костов операций vMotion и SVMotion не должна превышать max cost для соответствующего объекта (datastore, NIC и хост ESXi).

    Теперь взглянем на таблички (в них есть не только vMotion, но и SVMotion):

    Хост ESXi

    Operation Config Key Cost
    vMotion Cost costPerVmotionESX41 1
    Storage vMotion Cost costPerSVmotionESX41 4
    Maximum Cost maxCostPerEsx41Host 8

    Сеть

    Operation Config Key Cost
    vMotion Cost networkCostPerVmotion 1
    Storage vMotion Cost networkCostPerSVmotion 0
    Maximum Cost maxCostPerNic 2
    maxCostPer1GNic 4
    maxCostPer10GNic 8

    Хранилище (Datastore)

    Operation Config Key Cost
    vMotion Cost CostPerEsx41Vmotion 1
    Storage vMotion Cost CostPerEsx41SVmotion 16
    Maximum Cost maxCostPerEsx41Ds 128

    Читать эти таблички просто - например, для хоста ESXi стоимость миграции vMotion равна 1, а поскольку max cost равно 8, то всего на хост может быть 8 одновременных миграций в конфигурации по умолчанию. Либо допустимы одновременно: 1 миграция SVMotion (4 очка) и 4 штуки vMotion (по одному очку каждая), т.е. суммировать надо по костам: 4+1+1+1+1=8.

    Для хранилища (Datastore) также есть ограничения vMotion, поскольку передаются страницы файла подкачки (если он не шаренный между хостами), а также производится передача владения VMX-файлом и другими файлами ВМ на хранилище. Но поскольку влияние это мало, то стоимость vMotion для хранилища всего 1 при максимальной емкости одновременных операций 128 (а вот SVMotion, требующая значительных ресурсов хранилища, "кушает" 16 единиц). Таким образом 1 операция vMotion съест 1 единицу коста, поэтому в этот момент для хранилища будет доступно только 7 миграций SVMotion, т.е. (128-1) div 16 = 7.

    Соответственно, редактирование параметра Config Key для соответствующей операции позволяет изменять количество одновременных операций vMotion/SVMotion. Для редактирования параметра Config Key нужно отредактировать конфигурационный файл vpxd.cfg на сервере VMware vCenter, который находится в папке:

    %ALLUSERSPROFILE%\Application Data\VMware\VMware VirtualCenter\

    Там нужно вписать новое значение в соответствующую секцию. Например, для параметра maxCostPerEsx41Ds:

    < config >
    < vpxd >
    < ResourceManager >
    < MaxCostPerEsx41DS > new value < /MaxCostPerEsx41DS >
    < /ResourceManager >
    < /vpxd >
    < /config >

    Если соответствующей секции нет, то ее можно просто добавить. Уменьшать максимальные косты точно можно, а увеличение работает не всегда. То есть гарантированно вы сможете только уменьшить число одновременных миграций vMotion или SVMotion, а вот увеличить - не факт. Ограничение можно делать двумя способами - повышением обычных костов или понижением максимальных костов.

    Теперь самое интересное - это динамический параметр max cost для сетевых адаптеров. Как видно из таблицы, его действующее значение зависит от типа сетевого адаптера на хосте - 1G или 10G. Но, на самом деле, и не только от типа. Точнее - от скорости соединения для трафика vMotion между хостами ESXi, которую обнаруживает VMkernel. Таким образом:

    • Если VMkernel обнаруживает соединение на скорости 1Gbit/s - Maximum Cost выставляется в значение 4 (это верно и для случая соединения 1G<->10G).
    • Если VMkernel обнаруживает соединение на скорости 10Gbit/s - Maximum Cost выставляется в значение 8.
    • Если VMkernel обнаруживает соединение на скорости ниже 1Gbit/s - Maximum Cost выставляется в значение 2.

    Таким образом, для адаптера возможны либо 2, либо 4, либо 8 одновременных миграций vMotion, в зависимости от действующей скорости соединения. Операция Storage vMotion, как видно из таблицы, костов сети не кушает.

    Если ограничение для сети жестче (например, 4 миграции vMotion), чем ограничение для хоста (8 миграций vMotion) - то для машин этого хоста действует ограничение сети.


    Таги: VMware, vSphere, vMotion, ESXi, Storage vMotion, SVMotion, VMachines, Storage, vNetwork

    Рекомендации по защите инфраструктуры виртуальных десктопов VMware View. Часть 5 - физические устройства.


    В этой части статьи разберем рекомендации по настройке взаимодействия физических клиентских устройств и виртуальных десктопов. С точки зрения информационной безопасности это важные ограничения, т.к. влияет явно на возможную передачу конфиденциальной информации между физическими клиентскими устройствами и виртуальными десктопами. Глобально пользователи должны использовать виртуальные десктопы в удаленном режиме (Remote Mode, Online). Т.е. физически виртуальные десктопы должны находиться на серверах, а не клиентских устройствах пользователей...


    Таги: VMware, View, Security, Hardware, VDI, VMachines, Blogs

    Как обновить VMware Tools старых хост-серверов, не обновляя хостов VMware vSphere / ESXi.


    Начиная с версии VMware vSphere 4.0, компания VMware сделала замечательную вещь - все выпускаемые ей в комплекте с платформой виртуализации пакеты VMware Tools обратно совместимы со всеми прошлыми версиями хостов VMware ESXi:

    Соответственно, на VMware ESX 4.0 можно использовать VMware Tools от vSphere 5.1, но как сделать это, не обновляя платформу виртуализации? Оказывается есть простой метод, опубликованный на v-front.de и основанный на информации из KB 2004018.

    Итак:

    1. Скачиваем последние бандлы ESXi c VMware Patch download portal, например, ESXi510-201212001.zip. Открываем архив и переходим в категорию vib20\tools-light:

    Там будет один или два файла с расширением .vib. Если их два, то тот, что с меньшим номером билда - это тулзы, содержащие только обновления безопасности, а тот, что с большим - включает и эти обновления, и багофиксы. Берем тот, что с большим номером (609), кликаем на нем 2 раза и проваливаемся дальше в архив, где виден репозиторий VMware Tools:

    Эти три папки вы уже когда-то видели на Datastore в ESXi (во время установки тулзов). Создаем папку с именем vmware-tools на локальном хранилище ESX / ESXi и заливаем туда три извлеченные из vib'а папки, чтобы получилось вот так:

    Теперь нужно настроить хост ESXi для использования данного репозитория VMware Tools. Для этого идем в Advanced Settings хоста ESXi и настраиваем параметр UserVars.ProductLockerLocation, где прописана версия тулзов в формате:

    /locker/packages/<ESXi-Version> (ESXi-Version = 5.1.0, 5.0.0, 4.1.0 or 4.0.0)

    В нашем случае она выглядит так:

    /locker/packages/5.1.0

    Меняем ее на путь к репозиторию: /vmfs/volumes/<имя Datastore>/vmware-tools.

    После этого нужно перезагрузить хост, и изменения вступят в силу. Если перезагружать ESXi не хочется, то можно в корне файловой системы пересоздать символьную ссылку /productLocker:

    rm /productLocker
    ln -s /vmfs/volumes/<имя Datastore>/vmware-tools /productLocker

    Можно также вызвать команды, которые вызываются хостом для пересоздания символьных ссылок:

    •  /sbin/configLocker - для ESX / ESXi 4.x
    • jumpstart --plugin=libconfigure-locker.so - для ESXi 5.x

    Теперь остается только выбрать пункт Install/Upgrade VMware Tools в консоли vSphere Client при подключении к консоли ВМ для обновления компонентов пакета.


    Таги: VMware, vSphere, Tools, VMachines, Blogs, ESX, ESXi

    vcsim - симулятор VMware vCenter или как создать 10000 ненастоящих виртуальных машин в vSphere Client.


    Отличный пост про симулятор сервера vCenter написал William Lam. Изложим здесь его вкратце. Когда-то два человека, Zhelong Pan и Kinshuk Govil, написали утилиту vcsim, которая позволяет эмулировать сервер VMware vCenter в котором запущены тысячи виртуальных машин, при этом такие объекты потребляют минимум ресурсов и работают на минимальной конфигурации VMware vCSA (vCenter Server Appliance). Утилита входит в состав vCSA, но отсутствует в обычной инсталляции vCenter.

    Помимо собственно построения виртуального Inventory сервера vCenter из виртуальных машин и хост-серверов, утилита vcsim поддерживает простейшие операции с фейковыми объектами, например, Power On ненастоящих машин, а также различные метрики производительности. Кроме того, с помощью этой утилиты можно и добавлять настоящие серверы VMware ESXi и виртуальные машины, создавая гибридную конфигурацию, так как vcsim - это, все же, настоящий vCenter Server.

    Теперь приведем ситуации, когда такая конфигурация может оказаться полезной:

    • При изучении vSphere API для исследования функций навигации по иерархии.
    • Возможность создать "виртуальное" окружение для тестирования различных скриптов.
    • Разработка утилит, отслеживающих производительность
    • Разработка плагинов к vSphere Web Client 

    Для начала работы с vcsim нужно внести изменения в файл /etc/vmware-vpx/vpxd.cfg, поместив туда следующее между тэгами </vpxd> и </config>:

    <simulator>
    <enabled>true</enabled>
    <cleardb>false</cleardb>
    <initinventory>vcsim/model/initInventory.cfg</initInventory>
    </simulator>

    Кстати, шаблон конфигурации vcsim представлен в файле:

    /etc/vmware-vpx/vcsim/model/vcsim.cfg.template

    После этого нужно перезапустить сервис vCenter:

    service vmware-vpxd restart

    Такой перзапуск сервиса можно делать только один раз (даже если он был не успешен), дальше будут использоваться другие команды, приведенные ниже.

    После рестарта сервиса мы можем увидеть окружение с сотнями хост-серверов и десятью тысячами виртуальных машин, как в веб-клиенте:

    \

    так и в "толстом" клиенте:

    Теперь мы можем менять параметры окружения в файле:

    /etc/vmware-vpx/vcsim/model/initInventory.cfg

    В нем можно настраивать следующие объекты:

    • Datacenter
    • Hosts per Datacenter
    • VM per Host
    • Powered On VM per Host
    • Cluster per Datacenter
    • Host Per Cluster
    • Resource Pool per Cluster
    • VM per Resource Pool
    • Powered On VM
    • vCPU for a VM
    • vMEM for a VM

    После того, как вы сохранили внесенные в конфигурацию изменения, нужно выполнить команду vpxd -b, чтобы пересоздать базу симулируемого vCenter. Поэтому выполняем следующую последовательность для рестарта сервиса:

    service vmware-vpxd stop
    vpxd -b
    service vmware-vpxd start

    Кроме того, vcsim использует следующие конфигурационные файлы:

    • vcsim/model/metricMetadata.cfg (симулируемые Performance Metrics - по умолчанию их нет)
    • vcsim/model/vcModules.cfg (симулируемые модули vCenter, например, DRS)
    • vcsim/model/OperationDelay.cfg (задержки выполнения операций)

    Так что теперь можно испытывать эту штуку и экспериментировать в свободное время. Ну и, само собой, все это никак не поддерживается со стороны VMware.


    Таги: VMware, vCenter, vcsim, Blogs, ESXi, VMachines, Обучение

    Резервное копирование виртуальных машин в облако от ИТ-ГРАД - обеспечение непрерывности бизнеса организации.


    Чтобы обезопасить бизнес вашей компании от сбоев в работе ИТ-инфраструктуры и возможной потери информации, необходимо иметь план аварийного восстановления (disaster recovery plan). Облачная услуга резервного копирования компании ИТ-ГРАД позволяет обеспечить высокую доступность и сохранность ваших данных, в том числе виртуальных машин на платформе VMware vSphere. Это на 75% эффективнее и выгоднее по сравнению с традиционными планами восстановления.

    Традиционный план восстановления подразумевает организацию второй, желательно географически удаленной, площадки. Для ее организации зачастую требуется поставить практически такой же набор оборудования, что и на первой площадке. Требуется обеспечить инфраструктуру площадки, приобрести программное обеспечение для резервного копирования, все настроить и запустить. При этом затраты на создание и обслуживание второй площадки могут быть сопоставимы с затратами на основную площадку. Это означает, что обеспечение непрерывности бизнеса может съедать до 50% всего ИТ-бюджета.

    Услуга облачного резервного копирования предоставляет возможность быстро увеличивать или уменьшать объемы потребления, услуга не требует первоначальных капитальных затрат, кроме того она экономически выгодна за счет эффекта масштаба (затраты на инфраструктуру дата-центра делятся на всех заказчиков услуги).

    Как это работает

    В рамках данной услуги, вы получаете возможность резервирования своих критичных данных (файлы, базы данных, конфигурации ОС) в вычислительное облако компании ИТ-ГРАД с целью обеспечения их целостности и сохранности. Также клиент получает клиентское программное обеспечение (поддерживаются наиболее распространенные операционные системы и серверные приложения), с помощью которого осуществляет резервное копирование данных. Передача резервируемых данных осуществляется через каналы Интернет защищенным (шифрованным) способом, и не зависит от месторасположения оборудования клиента.

    Стоимость услуги резервного копирования напрямую зависит от количества и типа клиентов (сервер, рабочая станция), размера данных и параметров их хранения. Все стоимостные и качественные показатели услуги фиксируются в соглашении об уровне обслуживания (Service Level Agreement, SLA) на данную услугу.

    Виртуальные машины, резервируемые в облако, можно потом использовать как основную производственную нагрузку непосредственно в облаке ИТ-ГРАД.

    Подробнее об услуге можно узнать по этой ссылке.


    Таги: IT-Grad, Backup, IaaS, VMachines, DR

    Новая версия флагманского продукта «Кода Безопасности» – СЗИ от НСД Secret Net 7 – поступила в продажу.


    На прошлой неделе мы писали о средстве защиты информации от несанкционированного доступа Secret Net 7, которое удобно использовать совместно с vGate R2 для защиты виртуальной инфраструктуры от НСД.

    На днях компания «Код Безопасности» – российский разработчик средств защиты информации – объявила о старте продаж новой версии решения Secret Net 7, предназначенного для защиты от несанкционированного доступа к информационным ресурсам рабочих станций и серверов. Средство защиты информации от НСД Secret Net 7 получило сертификат ФСТЭК России, подтверждающий возможность использования решения для защиты конфиденциальной информации, персональных данных, а также сведений, составляющих государственную тайну.


    Среди ключевых изменений и новых функциональных возможностей разработчики компании «Код Безопасности» отмечают:

    • Новый вариант внедрения...

    Таги: Security Code, vGate, Security, Update, VMachines

    Вышел финальный релиз платформы виртуализации Red Hat Enterprise Virtualization 3.1 - новые возможности.


    В конце прошлой недели мы рассказали о документе, где приведено сравнение гипервизоров VMware vSphere, Microsoft Hyper-V и Red Hat Enterprise Virtualization (функциональность последнего там показана для бета-версии 3.1). На днях компания Red Hat объявила о выпуске окончательной версии платформы виртуализации Red Hat Enterprise Virtualization 3.1 для серверов и виртуальных ПК.

    Напомним, что мы уже писали о возможностях версии 3.0, вышедшей в самом начале этого года, а вот что нового появилось в RHEV 3.1:

    • Поддержка до 160 виртуальных процессоров для ВМ
    • Поддержка до 2 ТБ оперативной памяти для ВМ
    • Поддержка последних линеек x86-процессоров
    • Live Snapshots - поддерживаются снапшоты работающих виртуальных машин
    • Улучшенный SPICE-клиент для работы с виртуальными ПК - нативная поддержка USB 2.0, в том числе для виртуальных машин Linux
    • Улучшенный кроссплатформенный веб-портал администрирования
    • Улучшения на дэшбоарде консоли управления в части статистической информации
    • Улучшения сетевого взаимодействия, включая горячее добавление/удаление виртуальных сетевых адаптеров (vNIC), поддержка bridge-less network (создание изолированных локальных сетей на хосте), зеркалирования портов (port mirroring), а также настройки MTU
    • Увеличенный объем поддерживаемых хранилищ, а также поддержка NFS v4
    • Технологическое превью механизма горячей миграции хранилищ ВМ Storage Live Migration
    • Улучшенный портал для пользователей с возможностью определения квот ресурсов для них (Technology Preview)
    • Новая политика виртуальных ПК "auto start"
    • Улучшения работы через WAN-соединения
    • Улучшенный Virtual Desktop Client
    • Интеграция с Red Hat Storage (содержащего GlusterFS тома)
    • Командный интерфейс с использованием REST API
    • Пакет разработки Python SDK с использованием REST API
    • Механизм Windows Driver Deployment для гостевых ОС
    • Правила фильтрации через механизм Default Network Filter (nwfilter) для виртуальных машин

    В принципе, весьма немало. Скачать пробную версию решения Red Hat Enterprise Virtualization 3.1 можно по этой ссылке. Документ с полным описанием новых возможностей RHEV 3.1 доступен тут.


    Таги: Red Hat, RHEV, Update, VMachines, Linux

    HP выпустила утилиту Virtualization Performance Viewer 1.0 для решения проблем в виртуальных средах.


    Недавно компания HP выпустила первую версию продукта Virtualization Performance Viewer 1.0, предназначенного для обнаружения, диагностики и решения проблем в виртуальных средах. Virtualization Performance Viewer поставляется в бесплатном (ограниченная функциональность) и коммерческом изданиях.

    HP Virtualization Performance Viewer поддерживает гипервизоры VMware vSphere и Microsoft Hyper-V, и доступен как виртуальный модуль (Virtual Appliance) на базе CentOS. Бесплатная версия также доступна как приложение для ОС Windows.

    Основные возможности продукта:

    • Просмотр состояния и производительности виртуальной инфраструктуры, а также предоставление информации о ее компонентах в виде "Treemaps"
    • Утилиты для диагности и решения проблем с описанием возникших неполадок
    • Возможность предвидеть проблемы недостатка мощностей, а также идентифицировать недогруженные и перегруженные системы

    Отличия бесплатного и коммерческого изданий:

    Скачать HP Virtualization Performance Viewer можно по этой ссылке.


    Таги: HP, VMachines, Troubleshooting, VMware, Microsoft, vSphere, Hyper-V, Monitoring

    Использование сертифицированного средства Secret Net от компании Код Безопасности для защиты виртуальных машин от несанкционированного доступа (совместно с vGate R2).


    Мы уже много писали о продукте номер 1 - vGate R2, который необходим для защиты виртуальной инфраструктуры VMware vSphere средствами политик безопасности и механизмов защиты от несанкционированного доступа (НСД). С точки зрения защиты от НСД, продукт vGate R2 защищает хост-сервры виртуализации и виртуальные ресурсы (хранилища, сети, ВМ, сетевые адаптеры), которые делятся на изолированные домены безопасности в соответствии с назначенными им иерархическими и плоскими метками (2 независимых системы разделения ресурсов):

    Однако vGate R2 (как, во многом, и сама платформа vSphere) рассматривает виртуальные машины как "черные ящики", внутри которых установлены различные операционные системы, которые, между тем, нуждаются в защите. Поэтому для этих целей требуются дополнительные средства защиты от НСД в корпоративной инфраструктуре, которые помогут обеспечить безопасность на уровне ОС Windows для рабочих станций, а также виртуальных и физических серверов.

    Здесь вам может оказаться полезным продукт Secret Net, который является сертифицированным средством защиты информации от несанкционированного доступа и позволяет привести автоматизированные системы в соответствие требованиям регулирующих документов:

    • №98-ФЗ ("О коммерческой тайне")
    • №152-ФЗ ("О персональных данных")
    • №5485-1-ФЗ ("О государственной тайне")
    • СТО БР (Стандарт Банка России)

    Возможности Secret Net 6 для гостевых ОС виртуальных машин:

    • Аутентификация пользователей.
    • Обеспечение разграничения доступа к защищаемой информации и устройствам.
    • Доверенная информационная среда.
    • Контроль каналов распространения конфиденциальной информации.
    • Контроль устройств компьютера и отчуждаемых носителей информации на основе  централизованных политик, исключающих утечки конфиденциальной информации.
    • Централизованное управление политиками безопасности, позволяет оперативно реагировать на события НСД.
    • Оперативный мониторинг и аудит безопасности.
    • Масштабируемая система защиты, возможность применения Secret Net (сетевой вариант) в организации с большим количеством филиалов.

    Варианты развертывания Secret Net 6

    • Автономный режим – предназначен для защиты небольшого количества (до 20-25) рабочих станций и серверов. При этом каждая машина администрируется локально.
    • Сетевой режим (с централизованным управлением) – предназначен для развертывания в доменной сети c Active Directory. Данный вариант имеет средства централизованного управления и позволяет применить политики безопасности в масштабах организации. Сетевой вариант Secret Net может быть успешно развернут в сложной доменной сети (domain tree/forest).

    Совместное применение продуктов vGate R2 и Secred Net от одного вендора - Кода Безопасности - позволит надежно контролировать все аспекты безопасности, связанные с риском несанкционированного доступа к данным на различных уровнях: хост-серверов и виртуальных машин (vGate R2) и гостевых ОС (Secred Net).


    Таги: vGate, Security, Security Code, VMware, vSphere, VMachines

    VMware View Agent Direct-Connection Plugin - соединение с виртуальными ПК без Connection Server.


    На прошедшем VMworld Europe 2012 компания VMware рассказала об интересном решении VMware View Agent Direct-Connection Plugin, которое позволит пользователям виртуальных ПК соединяться с ними напрямую, минуя брокер соединений VMware View Connection Server. Делается это решение в партнерстве с различными компаниями, такими как Dell (+Quest) и Navisite, предлагающими DaaS-решения (Desktop-as-a-Service). Вот, например, интервью на эту тему с CEO компании Desktone, которая является провайдером DaaS:

    Технически на данный момент View Agent Direct-Connection Plugin представляет собой DLL-ку, которая помещается в туже директорию, что и VMware View Agent, устанавливаемый на десктопе. После чего с ним можно соединяться напрямую, без брокера (т.е. просто вбив IP-адрес машинки или ее имя в клиенте):

    Такую DLL мы помещаем в базовый образ, после чего при запуске агента во всех виртуальных ПК на базе этого образа происходит инициализация плагина View Agent Direct-Connection. Надо отметить, что при соединении пользователя из любого клиента (Windows, Mac, Android, iPad, Teradici Zero Clients и др.) через этот плагин, поддерживаются все необходимые функции VMware View: высокопроизводительный протокол PCoIP, перенаправление USB-устройств, поддержка 3D rendering, SSL-сертификаты, разделение GPU и так далее.

    Кому такое может пригодиться? Я вижу такие варианты применения VMware View Agent Direct-Connection Plugin:

    • Использование со стороны DaaS-провайдеров для предоставления доступа отдельным пользователям, в том числе для тестирования сервисов.
    • Применение в небольших компаниях, которые не покупают VMware View, но используют виртуальные ПК на платформе VMware vSphere.
    • Интеграция в сторонних решениях, которые используют технологии VMware View и консоль виртуального ПК.

    На данный момент VMware View Agent Direct-Connection Plugin работает только под Windows 7 и Windows 8 и доступен только партнерам VMware для собственных нужд. О публичной доступности продукта будет объявлено дополнительно.


    Таги: VMware, View, Agent, Update, DaaS, VDI, VMachines

    8 фактов о файлах подкачки виртуальных машин на платформе VMware vSphere (Virtual Machine Swap File - vswp).


    Мы уже не раз затрагивали тему vswp-файлов виртуальных машин (файлы подкачки), которые используются для организации swap-пространства гипервизором VMware ESXi. Эти файлы выполняют роль последнего эшелона среди техник оптимизации памяти в условиях недостатка ресурсов на хосте. Напомним, что в гипервизоре VMware ESXi есть такие техники как Transparent Page Sharing, Memory Ballooning, a также Memory Compression, которые позволяют разбираться с ситуациями нехватки памяти, необходимой виртуальным машинам.

    Напомним также, что первым эшелоном оптимизации памяти является техника Memory Ballooning. Она работает за счет использования драйвера vmmemctl.sys (для Windows), поставляемого вместе с VMware Tools. Он позволяет "надуть" шар внутри гостевой ОС (balloon), который захватывает физическую память, выделенную этой ОС (если ее много), и отдает ее другим гостевым операционным системам, которые в ней нуждаются. Этот balloon не позволяет гостевой ОС производить работу приложений с данной областью памяти, поэтому если им потребуется дополнительная память - она будет уходить в гостевой своп. Это более правильный подход, чем свопировать гостевую ОС в файл подкачки vswp на томе VMFS, поскольку операционная система сама лучше разбирается, что и когда ей класть и доставать из свопа (соответственно, быстродействие выше).

    Однако, когда памяти у всех виртуальных машин совсем мало или отдельной ВМ ее требуется больше, чем сконфигурировано, а также происходит постоянное обращение к памяти (особенно, если в гостевых ОС нет VMware Tools), гипервизор начинает использовать vswp-файл подкачки, который по умолчанию находится в папке с виртуальной машиной. Мы уже писали о том, что в целях повышения быстродействия можно положить vswp-файлы виртуальных машин на локальные SSD-хранилища серверов ESXi, а также о том, как удалять мусорные файлы vswp.

    Ниже мы приведем 8 фактов о swap-файлах виртуальных машин, которые основаны на вот этой заметке Фрэнка Деннемана:

    1. Хранение vswp-файлов на локальных дисках сервера ESXi (в том числе Swap to Host Cache) увеличивает время vMotion. Это очевидно, так как приходится копировать vswp-файл в директорию ВМ (или другую настроенную директорию), чтобы его видел целевой хост.

    2. С точки зрения безопасности: vswp-файл не чистится перед созданием. То есть там лежат не нули, а предыдущие данные блоков. Напоминаем, что размер файла подкачки равен размеру сконфигурированной памяти ВМ (если не настроен Reservation). Если же у машины есть Reservation, то размер vswp-файла определяется по формуле:

    Configured memory – memory reservation = size swap file

    То есть, если в настройках памяти машины ей выделено 4 ГБ, а Reservation настроен в 1 ГБ, то vswp-файл будет составлять 3 ГБ.

    3. Как происходит копирование vswp-файла при vMotion? Сначала создается новый vswp-файл на целевом хосте, а потом копируются только swapped out страницы с исходного в целевой vswp-файл.

    4. Что происходит при разнице в конфигурации размещения vswp-файлов в кластере и для отдельных хостов? Напомним, что в настройках кластера VMware vSphere есть 2 опции хранения vswp-файлов: в папке с ВМ (по умолчанию) и в директории, которая указана в настройках хоста:

    Если на одном хосте настроена отдельная директория для vswp, а на другом нет (то есть используется папка ВМ), то при vMotion такой виртуальной машины vswp-файл будет скопирован (в папку с ВМ), несмотря на то, что целевой хост видит эту директорию на исходном.

    5. Обработка файлов подкачки при нехватке места. Если в указанной директории не хватает места для свопа ВМ, то VMkernel пытается создать vswp-файл в папке с ВМ. Если и это не удается, то виртуальная машина не включается с сообщением об ошибке.

    6. vswp-файл лучше не помещать на реплицируемое хранилище. Это связано с тем, что используемые страницы памяти, находящиеся в двух синхронизируемых файлах, будут постоянно реплицироваться, что может вызывать снижение производительности репликации, особенно если она синхронная и особенно при vMotion в недефолтной конфигурации (когда происходит активное копирование страниц и их репликация):

    7. Если вы используете снапшоты на уровне хранилищ (Datastore или LUN), то лучше хранить vswp-файлы отдельно от этих хранилищ - так как в эти снапшоты попадает много ненужного, содержащегося в своп-файлах.

    8. Нужно ли класть vswp-файлы на хранилища, которые развернуты на базе thin provisioned datastore (на уровне LUN)? Ответ на этот вопрос зависит от того, как вы мониторите свободное место на тонких лунах и устройствах своего дискового массива. При создании vswp-файла VMkernel определяет его размер и возможность его создания на уровне хоста ESXi, а не на уровне устройства дискового массива. Поэтому если vswp-файл активно начнет использоваться, а вы этого не заметите при неправильной конфигурации и отсутствии мониторинга тонких томов - то могут возникнуть проблемы с их переполнением, что приведет к сбоям в работе ВМ.


    Таги: VMware, vSphere, VMachines, Storage, swap, VMFS, Blogs, ESXi

    Вебинар по возможностям резервного копирования в StarWind VMware Backup.


    Мы уже писали о том, что в рамках решения для создания отказоустойчивых хранилищ под виртуальные машины StarWind iSCSI SAN & NAS есть специальный отдельно лицензируемый плагин StarWind VMware Backup Plug-in, предназначенный для резервного копирования виртуальных машин на платформе VMware vSphere:

    Среди основных возможностей продукта StarWind VMware Backup Plug-in:

    • Безагентная архитектура - плагин может быть установлен на любой x64 Windows-машине.
    • Нативный формат хранения - все бэкапы сохраняются в родной VMDK-формат, поэтому стороннее ПО может оперировать с архивами без проблем.
    • Global deduplication - возможность дедупликации хранимых бэкапов, о которой мы писали тут, а тут рассматривали интеграцию с Veeam Backup.
    • Delta data saving - сохранение только изменившихся данных виртуальных машин средствами собственной технологии StarWind, основанной на технике global deduplication.
    • Одновременный бэкап нескольких ВМ - с сохранением высокого уровня производительности.
    • Incremental backup - технология инкрементального резервного копирования.
    • Восстановление отдельных файлов - чтобы не восстанавливать всю ВМ.

    Выглядит это подобным образом:

    Чтобы вы могли узнать о продукте побольше, мы приглашаем вас на вебинар "New StarWind VMware Backup", который состоится завтра, 15 ноября, в 17-00 по московскому времени:

    Зарегистрироваться.

    Сам плагин StarWind VMware Backup можно скачать по этой ссылке.


    Таги: StarWind, Backup, Webinar, VMware, vSphere, VMachines

    О вложенных виртуальных машинах (Nested VMs) в VMware vSphere 5.1 - отличия от предыдущих версий.


    Как мы уже писали, в VMware vSphere 5.1 появилось множество новых возможностей, в том числе улучшения, касающиеся аппаратной виртуализации (Hardware Virtualization), которая позволяет запускать вложенные гипервизоры (Hyper-V и ESXi) и виртуальные машины в них. Про то, как это работает в VMware vSphere 5.0, мы уже детально писали вот тут.

    В интерфейсе веб-клиента VMware vSphere 5.1 поддержка аппаратной виртуализации включается в настройках виртуальной машины:

    Настройки, которые были действительны для ESXi 5.0 - теперь не работают. Все теперь включается только через эту галочку.

    Напомним, что в ESXi 5.0 можно было запускать вложенные (Nested) 32-битные и 64-битные виртуальные машины в гипервизорах, которые сами работают в виртуальных машинах. При этом требовалось только наличие поддержки аппаратной виртуализации в процессорах - Intel VT или AMD-V. Если же в вашем процессоре не было поддержки Intel EPT или AMD RVI, то вложенные 64-битные машины работали очень и очень медленно.

    Поэтому VMware в vSphere 5.1 решила изменить концепцию, сделав так:

    • Если в процессоре есть поддержка Intel VT или AMD-V без EPT/RVI, то вы сможете устанавливать ESXi 5.1 в виртуальной машине, а также использовать вложенные 32-битные виртуальные машины. При этом 64-битные работать не будут, а опция "Hardware Virtualization" в vSphere Web Client будет загреена. Во время установки ESXi в виртуальной машине вы увидите сообщение "No Hardware Virtualization Support", которое можно просто игнорировать.
    • Если в процессоре есть поддержка аппаратной виртуализации и EPT/RVI, то можно использовать вложенные 64-битные ВМ.

    Проверить свой хост-сервер на наличие поддержки технологий аппаратной виртуализации можно на соответствующих ресурсах вендоров (например, ark.intel.com). Есть и способ попроще - для этого надо использовать Managed Object Browser. Зайдите на хост ESXi по адресу:

    https://<имя ESXi>/mob/?moid=ha-host&doPath=capability

    Там будет такое свойство nestedHVSupported, которое будет установлено в True, если процессор поддерживает полный набор техник аппаратной виртуализации, который необходим для запуска вложенных 64-битных виртуальных машин на виртуальном ESXi 5.1.


    Таги: VMware, vSphere, ESXi, Hardware, Intel, AMD, VMachines, Nested, Blogs

    Oracle анонсировала облачную инфраструктуру IaaS (виртуальные машины в аренду) - Oracle Public and Private Cloud.


    На проходящей с 1 по 3 октября конференции Oracle OpenWorld 2012, компания Oracle объявила о запуске собственного решения для получения вычислительных мощностей из публичного облака в аренду - Oracle IaaS.

    Напомним, что на данный момент на рынке облачных инфраструктур IaaS представлено можество компаний:

    • Amazon AWS - лидер на рынке облачных вычислений, предоставляющий сервисы IaaS на основе гипервизора Xen.
    • VMware vCloud на базе платформы VMware vSphere, распространяемый через экосистему партнеров.
    • Microsoft Windows Azure - публичное облако Microsoft на основе собственной ветки гипервизора Hyper-V.
    • Google Compute Engine - анонсированное недавно публичное облако Google, предназначенное для аренды мощностей под ресурсоемкие вычисления.

    Помимо этого есть и куча других IaaS-облаков, построенных на базе различных архитектур и решений. Теперь к этой разношерстной компании решила присоединиться и Oracle, планирующая предоставление виртуальных машин в аренду на базе своих программно-аппаратных платформ Exadata, Exalogic и SuperCluster. Помимо этого, было анонсировано решение для построения частных облаков организаций Oracle Private Cloud. Сама Oracle планирует прямую конкуренцию с Cloud-платформой Amazon AWS.

    Интересная особенность Private Cloud - в случае ее развертывания на площадке клиента, Oracle будет управлять и обслуживать ее на базе платы за потребление ресурсов в месяц. То есть, специалисты Oracle будут администрировать ЦОД компании на ее территории.

    При этом будет обеспечена совместимость при перемещении виртуальных машин между собственной инфраструктурой и облаком Oracle. Предлагаются также DR-сценарии и решения по заимствованию мощностей в случае отсутствия собственных под решение насущных задач:

    Кроме всего этого, Oracle будет продолжать предоставлять сервисы PaaS для разработки и размещения приложений (для своей БД и Java), а также приложения по модели SaaS - CRM, HCM, ERP и другие.

    Вот так выглядел Oracle Public Cloud в 2011 году, когда облако IaaS еще не было представлено:

    Посмотрим, как это будет выглядеть сейчас - следите за обновлениями cloud.oracle.com. Когда все это будет - неизвестно.


    Таги: Oracle, Cloud, Cloud Computing, Enterprise, VMachines

    VMware Distributed Storage и концепция vSAN для построения хранилищ VMware vSphere.


    Не так давно мы уже писали о технологии виртуальных томов vVOL, представленной на VMworld 2012, которая позволит дисковым массивам и хостам оперировать с отдельными виртуальными машинами на уровне логического дискового устройства, реализующего их хранилище, что повысит производительность и эффективность операций с ВМ.

    Там же, на VMworld 2012, компания VMware представила технологию vSAN, реализующую распределенное хранение данных ВМ на локальных хранилищах хост-серверов VMware ESXi (Distributed Storage):

    Концепция vSAN, включающая в себя Distributed Storage, является продолжением существующего подхода к организации общих хранилищ виртуальных машин на базе локальных дисков серверов - VMware vStorage Appliance. Работает это средство обеспечения отказоустойчивости хранилищ за счет полного дублирования хранилищ одного из узлов кластера, а также репликации данных между ними:

    Теперь же, в скором времени в гипервизор VMware ESXi будет включена технология Distributed Storage, которая позволит агрегировать вручную или автоматически дисковые емкости (HDD и SSD) хост-серверов в единый пул хранения с функциями отказоустойчивости и кэширования:

    Разрабатывается эта концепция на волне распространения SSD-накопителей в серверном оборудовании и СХД. Единый пул хранения кластера Distributed Storage будет не только объединять диски серверов (туда добавляются диски без созданных разделов с определенным администратором вкладом емкости в общий пул) и предоставлять пространство хранения виртуальным машинам на любом из хостов, но и будет управляем средствами политик механизма Policy-Based Storage Management. Интересно то, что размер кластера хранилища для Distributed Storage будет равен размеру кластера хостов (сейчас 32), в рамках которого все хосты имеют возможность использовать агрегированную емкость пула, даже те серверы, что не имеют дисков вовсе.

    Все это будет интегрировано с механизмами HA, vMotion и DRS в целях обеспечения отказоустойчивости и балансировки нагрузки на хост-серверы. Кроме этого, агрегированный пул хранилищ будет поддерживать все основные технологии VMware для работы с хранилищами: снапшоты ВМ, связанные клоны, vSphere Replication (vR) и vStorage APIs for Data Protection (vADP).

    С точки зрения политик хранения, Distributed Storage будет предоставлять следующие варианты для каждой виртуальной машины:

    • Доступная емкость и объем ее резервирования.
    • Уровень отказоустойчивости (степень дублирования данных на узлах = количество реплик).
    • Уровень производительности (какое количество SSD-кэша выделить для обслуживания реплик, а также число страйпов для диска ВМ, если необходимо).

    Данные в кластере VMware Distributed Storage хранятся на локальных дисках узлов по схеме RAID-1, так как это дает максимальный экономический эффект с точки зрения затрат на 1 IOPS при условии комбинирования HDD-хранилищ данных и SSD-хранилищ кэша и данных (подробнее тут). SSD-кэш работает как фронтэнд для HDD-дисков, обрабатывая кэширование чтений и буферизацию записи для операций кластера, при этом сделано множество оптимизаций кэша для увеличения вероятности попаданий в кэш при чтении данных ВМ с дисков различных узлов.

    Ну а на практике vSAN уже работает в лабораториях VMware, где инженеры демонстрируют возможности Distributed Storage:

    Информации о времени доступности технологии VMware Distributed Storage пока нет. Возможно, базовые функции vSAN будут реализованы в VMware vSphere 6.0.


    Таги: VMware, Storage, vSAN, vSphere, ESXi, VSA, SSD, SAN, VMachines, Update

    Как работает "Shared-Nothing" vMotion (Enhanced vMotion) в VMware vSphere 5.1.


    Как знают многие пользователи, среди новых возможностей VMware vSphere 5.1 есть так называемая Enhanced vMotion или "Shared-Nothing" vMotion - функция, позволяющая переместить работающую виртуальную машину на локальном хранилище ESXi на другой хост и хранилище с помощью комбинации техник vMoton и Storage vMotion в одной операции. Это означает, что для такого типа горячей миграции не требуется общее хранилище (Shared Storage), а значит и затрат на его приобретение. Напомним также, что функция Enhanced vMotion включена во все коммерческие издания VMware vSphere, кроме vSphere Essentials.

    Давайте посмотрим поближе, как это все работет:

    Сначала приведем требования и особенности работы vMotion при отсутствии общего хранилища:

    • Хосты ESXi должны находиться под управлением одного сервера vCenter.
    • Хосты должны находиться в одном контейнере Datacenter.
    • Хосты должны быть в одной Layer 2 подсети (и, если используется распределенный коммутатор, на одном VDS).
    • Enhanced vMotion - это исключительно ручной процесс, то есть функции DRS и Storage DRS не будут использовать миграцию машин без общего хранилища. Это же касается и режима обслуживания хоста (Maintenance Mode).
    • Для одного хоста ESXi может быть проведено не более 2-х Enhanced vMotion единовременно. Таким образом, на хост ESXi может одновременно приходиться максимум 2 штуки Enhanced vMotion и 6 обычных vMotion (всего 8 миграций на хост) + 2 операции Storage vMotion, либо 2 Enhanced vMotion (так как это также задействует Storage vMotion). Подробнее об этом тут.
    • Enhanced vMotion может проводить горячую миграцию одновременно по нескольким сетевым адаптерам хоста ESXi, если они имеются и настроены корректно.

    Миграция Enhanced vMotion может быть проведена только через тонкий клиент vSphere Web Client (в обычном клиенте эта функция недоступна - см. комментарии):

    Миграция Enhanced vMotion идет по обычной сети vMotion (а не по Storage Network), по ней передаются и диск ВМ, и ее память с регистрами процессора для обеспечения непрерывной работоспособности виртуальной машины во время миграции:

    Теперь как это все работает последовательно. Сначала механизм Enhanced vMotion вызывает подсистему Storage vMotion, которая производит копирование данных по сети vMotion. Здесь важны 2 ключевых компонента - bulk copy и mirror mode driver.

    Сначала механизм bulk copy начинает копирование блоков данных с максимально возможной скоростью. Во время этого часть блоков на исходном хранилище хоста может измениться - тут и вступает в дело mirror mode driver, который начинает поддерживать данные блоки на исходном и целевом хранилище в синхронном состоянии.

    Mirror mode driver во время своей работы игнорирует те блоки исходного хранилища, которые меняются, но еще не были скопированы на целевое хранилище. Чтобы поддерживать максимальную скорость копирования, Mirror mode driver использует специальный буфер, чтобы не использовать отложенную запись блоков.

    Когда диски на исходном и целевом хранилище и их изменяющиеся блоки приходят в синхронное состояние, начинается передача данных оперативной памяти и регистров процессора (операция vMotion). Это делается после Storage vMotion, так как страницы памяти меняются с более высокой интенсивностью. После проведения vMotion идет операция мгновенного переключения на целевой хост и хранилище (Switch over). Это делается традиционным способом - когда различия в памяти и регистрах процессора весьма малы, виртуальная машина на мгновение подмораживается, различия допередаются на целевой хост (плюс переброс сетевых соединений), машина размораживается на целевом хосте и продолжает исполнять операции и использовать хранилище с виртуальным диском уже целевого хоста.

    Ну а если вы перемещаете виртуальную машину не между локальными дисками хост-серверов, а между общими хранилищами, к которым имеют доступ оба хоста, то миграция дисков ВМ идет уже по Storage Network, как и в случае с обычным Storage vMotion, чтобы ускорить процесс и не создавать нагрузку на процессоры хостов и сеть vMotion. В этом случае (если возможно) будет использоваться и механизм VAAI для передачи нагрузки по копированию блоков на сторону дискового массива.

    Картинки и описание процесса взяты у Фрэнка.


    Таги: VMware, vMotion, vSphere, Storage vMotion, Storage, ESXi, VMachines, SMB

    Надежное удаление дисков виртуальных машин VMware vSphere с помощью vGate R2.


    Мы уже немало писали о сертифицированном ФСТЭК продукте vGate R2 от компании Код Безопасности, который позволяет защитить виртуальную инфраструктуру VMware vSphere 5 с помощью политик безопасности, а также средствами защиты от несанкционированного доступа.

    Одной из таких политик для хост-серверов ESXi в vGate R2 является политика безопасного удаления виртуальных машин, что подразумевает очистку виртуальных дисков VMDK на системе хранения при их удалении с тома VMFS. Это позволяет убедиться в том, что конфиденциальные данные, находившиеся на диске, будут недоступны для восстановления потенциальным злоумышленником, который, например, может находиться внутри компании и иметь доступ к содержимому томов VMFS через систему хранения данных или средства управления виртуальной инфраструктурой VMware vSphere.

    Для выполнения операции надежного удаления ВМ администратор должен иметь доступ к ESXi-серверу (а именно к TCP-портам 902, 903, 443), на котором выполняется удаляемая ВМ, а также иметь привилегию "разрешено скачивать файлы виртуальных машин".

    Если для удаляемой ВМ задана соответствующая политика безопасности, очистка дисков виртуальных машин выполняется автоматически. Если политика не задана, для этого может использоваться специальная утилита командной строки vmdktool.exe. Утилита также может быть полезна в том случае, если была удалена не ВМ полностью, а только какой-то ее диск.

    Перед очисткой диска ВМ необходимо убедиться в отсутствии у виртуальной машины снапшотов, после чего необходимо остановить ВМ.

    Далее выполняем следующую команду:

    >vmdktool.exe –s esx1.local –u root –p password –v "[storage1] vm4/vm4.vmx" –d "[storage1] vm1/vm1.vmdk" –t 55

    Более подробно об утилите vmdktool можно прочитать в документации по vGate R2.


    Таги: vGate, Security, VMachines, VMware, vSphere, ESXi, VMDK, Storage, Security Code

    Новый спонсор VM Guru - облачный сервис-провайдер ИТ-ГРАД.


    Коллектив VM Guru с радостью представляет вам нового стратегического спонсора ресурса - компанию ИТ-ГРАД.

    Основное направление деятельности сервис-провайдера ИТ-ГРАД – предоставление облачных услуг корпоративному сектору. Компания ИТ-ГРАД первой в России в 2009 году получила статус VMware Service Provider, который дал ей право предоставлять в аренду виртуальную инфраструктуру на базе технологий VMware – лидера в области виртуализации. По модели IaaS ИТ-ГРАД предлагает в аренду виртуальную инфраструктуру – гибкое решение для создания собственного парка виртуальных серверов (виртуального дата-центра).

    Виртуальный дата-центр (vDC) является полностью изолированной и автономной инфраструктурой, позволяющей клиенту самостоятельно создавать и клонировать виртуальные машины, изменять их конфигурацию, управлять конфигурацией сети, публиковать приложения в интернет (используя персональный программный файервол). Виртуальный дата-центр характеризуется следующими параметрами:

    • CPU – вычислительные мощности процессора (GHz)
    • Memory – оперативная память (GB)
    • Storage – дисковое пространство (GB)
    • Network – сети (количество сетей и внешних IP адресов)
    • VMs – максимальное число виртуальных машин внутри vDC.

    Став клиентом ИТ-ГРАД, вы становитесь владельцем собственного виртуального центра обработки данных. Вы имеете возможность делать все необходимые операции, а именно:

    • Самостоятельно создавать виртуальные серверы, когда они требуются.
    • Изменять конфигурации уже существующих серверов за несколько минут, причем часть операций даже без остановки и перезагрузки сервера (для некоторых операционных систем).
    • Включать, выключать, устанавливать ОС и приложения без участия специалистов ИТ-ГРАД. Данные операции Вы можете делать удаленно, не требуется какого-либо физического присутствия рядом с сервером.
    • Делать резервные копии и сохранять состояния работающих серверов. Данные операции производятся очень быстро, просто и удобно - по аналогии работы с файлами – копирование, удаление, перемещение.
    • Платить только за фактическое потребление! Нет необходимости переплачивать за простаивающие ресурсы.

    Решения ИТ-ГРАД строятся на базе лидирующих в отрасли программных продуктов, таких как VMware vSphere, vCloud Director, vShield и т.п., а в качестве технической инфраструктуры используется новейшее оборудование лидирующих вендоров (HP+Cisco+NetApp).

    Вы можете оставить заявку на расчет стоимости аренды виртуальных машин VMware, а также обратиться по адресу sales2010@it-grad.ru для запроса тестового доступа к инфраструктуре ИТ-ГРАД.


    Таги: VMware, IAAS, IT-Grad, VSPP, VMachines, vSphere, vCloud Director, Cloud, Cloud Computing

    Как VMware продолжает менять подход к ИТ-инфраструктуре: концепция vVOL для хранилищ виртуальных машин vSphere.


    В большой виртуальной инфраструктуре присутствуют сотни хранилищ VMFS, созданных поверх LUN, где лежат виртуальные машины с различным уровнем требуемого сервиса и политик. Проблемы начинаются с того, что система хранения не знает о том, что на ее LUN находятся виртуальные машины. Например, синхронная репликация на уровне массива может делаться только на уровне LUN, хотя с данного тома VMFS требуется реплицировать не все ВМ, которые могут быть с различным уровнем критичности. То же самое касается снапшотов и снапклонов уровня массива...


    Таги: VMware, Storage, VVOL, vSphere, ESXi, vStorage, VMachines, Hardware

    Полный список новых возможностей VMware vSphere 5.1.


    На конференции VMworld 2012 компания VMware анонсировала выпуск новой версии серверной платформы виртуализации VMware vSphere 5.1. В обновленной версии продукта появилось множество интересных возможностей, отражающих движение компании VMware в направлении развития облачных вычислений. В этой статье мы приведем полный список новой функциональности VMware vSphere 5.1, которая доступна пользователям уже сегодня...


    Таги: VMware, vSphere, Update, ESXi, vCenter, VMachines

    1 миллион IOPS для виртуальной машины на VMware vSphere 5.1.


    На проходящем сейчас в Сан-Франциско VMworld 2012 компания VMware продемонстрировала новые горизонты производительности серверной платформы виртуализации, выжав 1 миллион операций ввода-вывода в секунду (IOPS) для одной виртуальной машины на VMware vSphere 5.1.

    Для тестов использовалась следующая конфигурация:

    Hypervisor: vSphere 5.1
    Server: HP DL380 Gen8
    CPU: 2 x Intel Xeon E5-2690, HyperThreading disabled
    Memory: 256GB
    HBAs: 5 x QLA2532
    Storage: 2 x Violin Memory 6616 Flash Memory Arrays
    VM: Windows Server 2008 R2, 8 vCPUs and 48GB.
    Iometer Config: 4K IO size w/ 16 workers

    Напомним, что на прошлом VMworld 2011 также была показана производительность в 1 миллион IOPS (300 000 для одной машины), но для хост-сервера VMware ESXi (суммарно от нескольких виртуальных машин).

    Также из любопытных фактов, озвученных на VMworld 2012:

    • 60% серверов уже являются виртуальными, VMware стремится к показателю 90% и более.
    • Число сертифицированных специалистов VMware VCP достигло 125 тысяч.
    • В VMworld 2012 приняли участие 20 000 специалистов.
    • Основная концепция на ближайшее будущее - "Software-defined data center" (по аналогии с приобретенной недавно концепцией компании Nicira - Software-defined networking). Предполагается, что ключевые позиции в этой концепции займут продукты VMware vSphere, vCloud Director, vCloud Connector, Site Recovery Manager, vCenter Operations и vFabric Application Director.

    Больше об облачных инициативах VMware - в самое ближайшее время.


    Таги: VMware, vSphere, Update, Performance, Storage, VMachines

    Автостарт виртуальных машин в Citrix XenServer 6.0.


    Многие пользователи платформы Citrix XenServer были несколько удивлены, когда в шестой версии этого продукта заметили, что возможности Auto Start для виртуальных машин были убраны из графического интерфейса консоли управления XenCenter, хотя присутствовали в более ранних версиях.

    Сделано это было потому, что механизм автоматического старта виртуальных машин в XenServer конфликтуют с функциями высокой доступности (HA). Однако тем пользователям, которые применяют бесплатное издание XenServer 6 Free Edition, эти возможности, все-таки, нужны.

    Поэтому опишем здесь, каким образом можно включить автостарт ВМ в XenServer.

    Сначала нужно включить его на уровне XenServer и пула, для чего нужно выполнить следующее:

    1. Определеяем UUID пула, для которого мы хотим включить Auto Start. Для этого выполняем консольную команду на сервере XenServer:

    xe pool-list

    Вывод будет в таком формате:

    Нам нужен параметр [uuid-pool], например, так:

    2. Разрешаем автостарт виртуальных машин на уровне пула с найденным UUID командой:

    xe pool-param-set uuid=UUID other-config:auto_poweron=true

    Теперь включаем автостарт на уровне виртуальных машин, для чего:

    1. Выполняем команду для получения UUID виртуальной машины:

    xe vm-list

    2. И для найденного UUID включаем автостарт:

    xe vm-param-set uuid=[uuid-vm] other-config:auto_poweron=true

    Есть также способ попроще - для этого можно использовать скрипт, выложенный вот в этой ветке форумов Citrix. Там вы можете добавить тэг "autostart" к виртуальной машине прямо в XenCenter, после чего она будет автоматически запускаться при старте хоста.


    Таги: Citrix, XenServer, VMachines

    Вышли VMware Workstation 9 и VMware Fusion 5 - новые возможности настольных платформ виртуализации.


    Не так давно мы писали про мартовские, июньские и июльские превью-версии VMware Workstation и VMware Fusion 2012 года. Вчера компания VMware, проведя обширное бета-тестирование, выпустила окончательные версии продуктов VMware Workstation 9 и VMware Fusion 5, получившие много новых интересных возможностей.

    Полный список новых возможностей VMware Workstation 9:

    • Поддержка гостевых и хостовых ОС Windows 8 и Windows Server 2012. Упрощенная установка, распознающая Windows 8. В гостевой ОС поддерживается новый интерфейс Metro. Переключение между Metro и хостовым десктопом может быть произведено нажатием кнопки Windows, при этом интерфейс Unity интеллектуально обрабатывает Metro. В Workstation 9 также присутствует поддержка мультитача для гостевой ОС Windows 8 с Metro, работающей в Workstation, которая запущена на планшете с Windows 8.
    • Улучшения графического движка. В Workstation 9 было сделано много улучшений в структуре движка, включая графический драйвер для рендера графики в Windows 8 без аппаратного ускорения, улучшения графического отображения "тяжелых" приложений (AutoCAD и SolidWorks), а также существенная доработка графического драйвера для Windows XP.
    • Поддержка движка OpenGL для гостевых ОС Linux. VMware разработала собственный драйвер для OpenGL графики и добавила его на X.org. Это позволит использовать новые графические возможности в текущих и новых дистрибутивах Linux (например, Ubuntu 12.04) без необходимости установки VMware Tools.
    • Restricted Virtual Machines - возможность задать дополнительный пароль для зашифрованных ВМ, чтобы предотвратить изменение их конфигурации со стороны неавторизованных пользователей (например, ВМ для студентов). Такие машины могут работать в VMware Workstation 9, VMware Player 5 и VMware Fusion 5 на платформах Windows, Linux или Mac.
    • WSX Server - это технология, которая работает на базе стандарта HTML 5 (с поддержкой WebSockets), что подразумевает отсутствие необходимости иметь какие-либо дополнительные компоненты, кроме веб-браузера, чтобы получить доступ к консоли виртуальной машины и ее средствами управления. В качестве веб-браузеров, той или иной степени совместимых с HTML 5, можно использовать Chrome 17, Firefox 10, IE 10, Safari 5 на ПК с Mac OS и iOS 5 для iPad. На данный момент эта функция не поддерживается в производственной среде. Для PC рекомендуется использовать браузер Google Chrome 17, а для Mac и iPad - Apple Safari 5 (на данный момент есть проблемы с Internet Explorer 10). WSX также работает и с другими браузерами на планшетах Android под управлением Ice Cream Sandwich, однако пока не все из них протестированы.
    • Возможность загрузки виртуальных машин на хосты VMware vSphere и обратно с них на Workstation - это также возможно сделать, перетаскивая их с удаленного хоста в секцию My Computer библиотеки Virtual Machine Library.
    • Поддержка USB 3.0 - Workstation 9 поддерживает проброс USB 3.0 устройств в гостевую ОС Windows 8. Делается это средствами новых драйверов USB 3.0 для накопителей или видеоустройств.
    • Улучшения Nested Virtualization - были улучшены расширения аппаратной виртуализации Intel VT-x/EPT и AMD-V/RVI, что позволяет запускать ESX/ESXi в гостевой ОС, а в них 64-битные машины с меньшими потерями производительности. Если вы включали эти расширения в Workstation 8, то перед обновлением до девятой версии их надо выключить, а после обновления снова включить.
    • Hyper-V можно запускать в гостевой ОС - можно использовать Windows 8 с функциями Hyper-V, а также Hyper-V Server 2012 или Windows Server 2012 с ролью Hyper-V. Эти возможности не поддерживаются в производственной среде (и никогда не будут).
    • Virtual Performance Counters - счетчики производительности виртуальных машин для профилирования приложений из гостевой ОС (например, с помощью Intel vTune).
    • Remoting Improvements - существенные улучшения производительности при соединении с консолью ВМ на VMware vSphere или к машинам Workstation с помощью VNC-клиента.
    • Disk Cleanup - новая возможность почистить место в папке с файлами виртуальной машины.
    • Quick Switch II - раньше в Workstation был режим быстрого переключения между виртуальными машинами вверху окна, в Workstation 8 этот функционал был убран. Теперь он вернулся с большим удобством и группировкой по хостам в хостовых ОС Windows.
    • Thumbnail Actions - теперь на таскбаре для виртуальных машин есть кнопки для управления питанием ВМ.
    • Saved Filters - в Workstation 9 автоматически сохраняются поиски по virtual machine library как фильтры для быстрого их применения при следующем запуске.
    • VMware Player - пользовательский интерфейс этого продукта был полностью переработан. Теперь он также доступен и для коммерческого использования - лицензия на VMware Player 5 включена в издание VMware Fusion 5 Professional.
    • Поддержка шифрованного SSL-соединения для WSX. Теперь можно назвать сертификаты именами wsx.crt и wsx.key и положить их в папки etc/vmware/wsx/ssl/directory (Linux) или Application Data\VMware\VMware WSX\SSL (Windows). Этого не сделано по умолчанию, так как SSL глючит с WebSockets.
    • Улучшена стабильность продукта, включая операции suspend/resume и display, а также улучшена поддержка устройств хоста.
    • Поддержка голосового движка через WSX на Mac OS и iOS при работе с консолью ВМ Windows.

    Release Notes и документация к продукту VMware Workstation 9 доступна по этой ссылке. Скачать пробную версию можно тут. Для пользователей VMware Workstation 8 обновление на девятую версию - бесплатно.

    Полный список новых возможностей VMware Fusion 5:

    • Упрощенная установка - нужно просто запустить VMware Fusion.app или перетащить его в место установки, для удаления продукта можно перетащить иконку в корзину.
    • Поддержка Windows 8 в виртуальных машинах - Fusion 5 полностью поддерживает интерфейс Metro в гостевой ОС Windows 8, имеет отдельный профиль клавиатуры, а также возможность импорта физических ПК в ВМ. Поддерживается также установка Windows 8 в режиме "Boot Camp".
    • Поддержка VMware ESXi 5, Ubuntu 12.04, Fedora 17 и Windows Server 2012 в гостевых ОС.
    • Полная поддержка хостов и дизайн для OS X Mountain Lion - VMware Fusion использует Mountain Lion notification center для отображения важных сообщений. Кроме этого можно искать Windows-программы в Launchpad, а также использовать "AirPlay Mirroring" для стриминга приложений Windows на HDTV.
    • Улучшенная стабильность - при работе с приложениями для Windows 7 и Windows 8.
    • Оптимизация для последних устройств Mac - поддержка десплеев Retina, интерфейса USB 3.0 для Windows и Linux, SSD-оптимизации, а также экономия батареи.
    • Множественные изменения интерфейса:
      • Новая библиотека виртуальных машин (virtual machine library) и куча возможностей в ней.
      • Новый механизм работы с окнами VMware Fusion (настройки, снапшоты и т.п.).
      • Запуск приложений Windows 7 и Windows 8 в режиме Unity.
      • Прямой доступ к VMware Fusion Learning Center.
    • Поддержка ВМ с гостевой ОС Linux и 3D desktops - включая Ubuntu 12.04 и последние релизы OpenSUSE и поддержка OpenGL.
    • Restricted virtual machines - поддержка запуска и создания защищенных ВМ (см. раздел Workstation 9).
    • Virtual Performance Counter - счетчики производительности виртуальных машин для профилирования приложений из гостевой ОС (например, с помощью Intel vTune).
    • Custom network configuration - возможность создания специализированных сетей для лаборатории, демонстраций и тестирования.
    • Улушчение производительности и надежности операций suspend, resume, pause, restart.
    • Импорт виртуальных машин в OVF-формате.
    • Изменение загрузочных устройств виртуальных машин Mac OS X.
    • Улучшения при работе с устройствами ВМ.
    • Улучшения виртуализации инструкций VT-x/EPT.
    • Новый VIX API для автоматизации через perl или другие скриптовые языки.
    • Поддержка сетевой загрузки виртуальных машин на основе EFI.
    • Метапакеты (mpkg) для развертывания VMware Fusion на большом количестве компьютеров Mac.

    Release Notes и документация к продукту VMware Fusion 5 доступна по этой ссылке. Скачать пробную версию можно тут.


    Таги: VMware, Workstation, Fusion, Update, WSX, VMachines, Mac, Windows, Metro

    На VMware Labs появился Boomerang 2.0 - теперь с поддержкой VMware View.


    Не так давно мы писали про проект Boomerang, который доступен на сайте VMware Labs. Это утилита, которая размещается в трее и с помощью которой можно получать быстрый доступ к консоли виртуальных машин (через VMware Remote Console, VMRC) и управлению питанием. Машины можно помечать звездочками, чтобы выделить их в списке Favorites. К сожалению, Boomerang не работает для бесплатного VMware ESXi (см. комментарии), но поддерживает одновременное подключение к нескольким хост-серверам в платной версии.

    На днях произошло обновление продукта до версии Boomerang 2.0.

    Среди новых возможностей VMware Boomerang 2.0:

    • Поддержка нескольких серверов View Connection Server одновременно и их виртуальных машин.
    • При установке продукта поддержку VMware vSphere или VMware View можно опционально отключить.
    • Сортировка серверов в алфавитном порядке.
    • Если включен поиск ВМ, то список ВМ серверов автоматически раскрывается.

    Напомним основные возможности продукта VMware Boomerang:

    • Поддержка соединения к нескольким серверам ESX/ESXi и нескольким серверам vCenter одновременно.
    • Поддержка соединения к нескольким серверам View Connection Server одновременно.
    • Соединение с десктопами VMware View по протоколу PCoIP или RDP.
    • Автоматическое перенаправление клиентских принтеров в десктопы View через ThinPrint.
    • Сохранение логина и пароля для входа на серверы.
    • Панель Favorites для удобства просмотра машин на нескольких серверах.
    • Удобная панель управления питанием ВМ.
    • Поиск машины в списке происходит набором ее имени на клавиатуре.
    • Серверы с большим количеством ВМ автоматически сворачиваются в гиперссылки, которые можно развернуть.
    • Автоматический поиск обновлений для утилиты.
    • Секция Recently Used, показывающая машины, с которыми были последние соединения.
    • Быстрый поиск ВМ по всем серверам.

    Скачать VMware Boomerang 2.0 можно по этой ссылке (всего 12 МБ).


    Таги: VMware, View, Boomerang, Labs, ESXi, VMachines

    <<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21    >   >>
    Интересное:





    Зал Славы Рекламодателя
    Ближайшие события в области виртуализации:

    Быстрый переход:
    VMware Enterprise Offtopic Broadcom VMachines Veeam Microsoft Cloud StarWind NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V VCF Operations Certification Memory Kubernetes NVMe AI vSAN VMConAWS vDefend VCDX Explore Tanzu Workstation Private AI Update Russian Ports HCX Live Recovery CloudHealth NSX Labs Backup Chargeback Aria VCP Intel Community Ransomware Stretched Network VMUG VCPP Data Protection ONE V2V DSM DPU Omnissa EUC Avi Skyline Host Client GenAI Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS VEBA App Volumes Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey RDMA vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Availability Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V Capacity KB VirtualCenter NFS ThinPrint VCAP Upgrade Orchestrator ML Director SIOC Troubleshooting Bugs ESA Android Python Hub Guardrails CLI Driver Foundation HPC Optimization SVMotion Diagram Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
    Полезные постеры:

    Постер VMware vSphere PowerCLI 10

    Постер VMware Cloud Foundation 4 Architecture

    Постер VMware vCloud Networking

    Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

    Постер Azure VMware Solution Logical Design

    Постер Google Cloud VMware Engine Logical Design

    Постер Multi-Cloud Application Mobility

    Постер VMware NSX (референсный):

    Постер VMware vCloud SDK:

    Постер VMware vCloud Suite:

    Управление памятью в VMware vSphere 5:

    Как работает кластер VMware High Availability:

    Постер VMware vSphere 5.5 ESXTOP (обзорный):

     

    Популярные статьи:
    Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

    Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

    Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

    Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

    Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

    Сравнение Oracle VirtualBox и VMware Workstation.

    Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

    Работа с дисками виртуальных машин VMware.

    Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

    Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

    Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

    Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

    Как поднять программный iSCSI Target на Windows 2003 Server для ESX

    Инфраструктура виртуальных десктопов VMware View 3 (VDI)

    Как использовать возможности VMware vSphere Management Assistant (vMA).

    Интервью:

    Alessandro Perilli
    virtualization.info
    Основатель

    Ратмир Тимашев
    Veeam Software
    Президент


    Полезные ресурсы:

    Последние 100 утилит VMware Labs

    Новые возможности VMware vSphere 8.0 Update 1

    Новые возможности VMware vSAN 8.0 Update 1

    Новые документы от VMware

    Новые технологии и продукты на VMware Explore 2022

    Анонсы VMware весной 2021 года

    Новые технологии и продукты на VMware VMworld 2021

    Новые технологии и продукты на VMware VMworld 2020

    Новые технологии и продукты на VMware VMworld Europe 2019

    Новые технологии и продукты на VMware VMworld US 2019

    Новые технологии и продукты на VMware VMworld 2019

    Новые технологии и продукты на VMware VMworld 2018

    Новые технологии и продукты на VMware VMworld 2017



    Copyright VM Guru 2006 - 2026, Александр Самойленко. Правила перепечатки материалов.
    vExpert Badge